Motion Feature Extraction and Stylization for Character Animation using Hilbert-Huang Transform
This paper presents novel insights to feature extraction and stylization of character motion in the instantaneous frequency domain by proposing a method using the Hilbert-Huang transform (HHT). HHT decomposes human motion capture data in the frequency domain into several pseudo monochromatic signals, so-called intrinsic mode functions (IMFs). We propose an algorithm to reconstruct these IMFs and extract motion features automatically using the Fibonacci sequence in the link-dynamical structure of the human body. Our research revealed that these reconstructed motions could be mainly divided into three parts, a primary motion and a secondary motion, corresponding to the animation principles, and a basic motion consisting of posture and position. Our method help animators edit target motions by extracting and blending the primary or secondary motions extracted from a source motion. To demonstrate results, we applied our proposed method to general motions (jumping, punching, and walking motions) to achieve different stylizations.
本論文では,Hilbert-Huang変換(HHT)を用いた手法を提案することにより,瞬時周波数領域におけるキャラクタモーションの特徴抽出と定型化に対する新しい知見を提供する.HHTは、人間のモーションキャプチャデータを周波数領域でいくつかの擬似単色信号、いわゆる固有モード関数(IMF)に分解する。我々は、これらのIMFを再構成し、人体のリンクダイナミクス構造におけるフィボナッチ数列を用いて、自動的に運動特徴を抽出するアルゴリズムを提案する。この再構成された動作は、主にアニメーションの原理に対応した一次動作と二次動作、および姿勢と位置からなる基本動作の3つに分けられることを明らかにした。本手法は、原画から抽出された一次動作、二次動作の抽出・合成を行うことで、アニメーターの目標動作の編集を支援する。提案手法を一般的な動作(ジャンプ動作、パンチ動作、歩行動作)に適用し、様々なスタイリングを実現した結果を示す。